home *** CD-ROM | disk | FTP | other *** search
/ Internet Info 1994 March / Internet Info CD-ROM (Walnut Creek) (March 1994).iso / answers / alt / afs-faq < prev    next >
Internet Message Format  |  1994-03-27  |  74KB

  1. Path: bloom-beacon.mit.edu!senator-bedfellow.mit.edu!faqserv
  2. From: mpb@mailserver.aixssc.uk.ibm.com (Paul Blackburn)
  3. Newsgroups: alt.filesystems.afs,alt.answers,news.answers
  4. Subject: AFS distributed filesystem FAQ
  5. Supersedes: <afs-faq_762159235@rtfm.mit.edu>
  6. Followup-To: alt.filesystems.afs
  7. Date: 27 Mar 1994 10:34:49 GMT
  8. Organization: AIX Systems Support Centre, IBM UK
  9. Lines: 1713
  10. Approved: news-answers-request@MIT.Edu
  11. Expires: 10 May 1994 10:34:18 GMT
  12. Message-ID: <afs-faq_764764458@rtfm.mit.edu>
  13. Reply-To: mpb@acm.org (AFS FAQ comments address)
  14. NNTP-Posting-Host: bloom-picayune.mit.edu
  15. Summary: Introduction to AFS with pointers to further information
  16. X-Last-Updated: 1994/03/24
  17. Originator: faqserv@bloom-picayune.MIT.EDU
  18. Xref: bloom-beacon.mit.edu alt.filesystems.afs:385 alt.answers:2241 news.answers:16891
  19.  
  20. Archive-name: afs-faq
  21. Version: 1.71
  22. Last-modified: 1202 GMT Thursday 24th March 1994
  23.  
  24. AFS frequently asked questions
  25. ______________________________________________________________________________
  26.  
  27.    This posting contains answers to frequently asked questions about AFS.
  28.    Your comments and contributions are welcome (email: mpb@acm.org)
  29.  
  30.    Most newsreaders can skip from topic to topic with control-G.
  31.  
  32. ______________________________________________________________________________
  33. Subject: Table of contents:
  34.  
  35.    0  Preamble
  36.       0.01  Purpose and audience
  37.       0.02  Acknowledgements
  38.       0.03  Disclaimer
  39.       0.04  Release Notes
  40.       0.05  Quote
  41.  
  42.    1  General
  43.       1.01  What is AFS?
  44.       1.02  Who supplies AFS?
  45.       1.03  What is /afs?
  46.       1.04  What is an AFS cell?
  47.       1.05  What are the benefits of using AFS?
  48.             1.05.a  Cache Manager
  49.             1.05.b  Location independence
  50.             1.05.c  Scalability
  51.             1.05.d  Improved security
  52.             1.05.e  Single systems image (SSI)
  53.             1.05.f  Replicated AFS volumes
  54.             1.05.g  Improved robustness to server crash
  55.             1.05.h  "Easy to use" networking
  56.             1.05.i  Communications protocol
  57.             1.05.j  Improved system management capability
  58.       1.06  Which systems is AFS available for?
  59.       1.07  What does "ls /afs" display in the Internet AFS filetree?
  60.       1.08  Why does AFS use Kerberos authentication?
  61.  
  62.    2  Using AFS
  63.       2.01  What are the differences between AFS and a unix filesystem?
  64.       2.02  What is an AFS protection group?
  65.       2.03  What are the AFS defined protection groups?
  66.       2.04  What is an AFS access control list (ACL)?
  67.       2.05  What are the AFS access rights?
  68.       2.06  What is pagsh?
  69.       2.07  Why use a PAG?
  70.       2.08  How can I tell if I have a PAG?
  71.       2.09  Can I still run cron jobs with AFS?
  72.       2.10  How much disk space does a 1 byte file occupy in AFS?
  73.       2.11  Is it possible to specify a user who is external
  74.             to the current AFS cell on an ACL?
  75.  
  76.    3  AFS administration
  77.       3.01  Is there a version of xdm available with AFS authentication?
  78.       3.02  Is there a version of xlock available with AFS authentication?
  79.       3.03  How does AFS compare with NFS?
  80.       3.04  Given that AFS data is location independent, how does
  81.             an AFS client determine which server houses the data
  82.             its user is attempting to access?
  83.       3.05  Which protocols does AFS use?
  84.       3.06  Are setuid programs executable across AFS cell boundaries?
  85.       3.07  How does AFS maintain consistency on read-write files?
  86.       3.08  How can I run daemons with tokens that do not expire?
  87.       3.09  Can I check my user's passwords for security purposes?
  88.       3.10  Is there a way to automatically balance disk usage across
  89.             fileservers?
  90.       3.11  Can I shutdown an AFS fileserver without affecting users?
  91.       3.12  How can I set up mail delivery to users with $HOMEs in AFS?
  92.       3.13  Should I replicate a ReadOnly volume on the same partition
  93.             and server as the ReadWrite volume?
  94.       3.14  Should I start AFS before NFS in /etc/inittab?
  95.       3.15  Will AFS run on a multi-homed fileserver?
  96.  
  97.    4  Getting more information
  98.       4.01  Is there an anonymous FTP site with AFS information?
  99.       4.02  Which USENET newsgroups discuss AFS?
  100.       4.03  Where can I get training in AFS?
  101.  
  102.    5  About the AFS faq
  103.       5.01  How can I get a copy of the AFS faq?
  104.       5.02  How can I get my question (and answer) into the AFS faq?
  105.       5.03  How can I access the AFS faq via the World Wide Web?
  106.  
  107.    6  Bibliography
  108. ______________________________________________________________________________
  109.  
  110. Subject: 0  Preamble
  111.  
  112. Subject: 0.01  Purpose and audience
  113.  
  114.    The aim of this compilation is to provide information about AFS including:
  115.  
  116.       + A brief introduction
  117.       + Answers to some often asked questions
  118.       + Pointers to further information
  119.  
  120.    Definitive and detailed information on AFS is provided in Transarc's
  121.    AFS manuals ([23], [24], [25]).
  122.  
  123.    The intended audience ranges from people who know little of the subject
  124.    and want to know more to those who have experience with AFS and wish
  125.    to share useful information by contributing to the faq.
  126.  
  127. Subject: 0.02  Acknowledgements
  128.  
  129.    The information presented here has been gleaned from many sources.
  130.    Some material has been directly contributed by people listed below.
  131.  
  132.    If this compilation has any merit then much credit belongs to
  133.    Pierette Maniago VanRyzin of Transarc for giving inspiration,
  134.    support, answers, and proof-reading the early versions.
  135.  
  136.    I would like to thank the following for contributing:
  137.  
  138.         Lyle Seaman (Transarc)
  139.         Joseph Jackson (Transarc)
  140.         Dan Lovinger (Carnegie Mellon University)
  141.         Lucien Van Elsen (IBM)
  142.         Jim Rees (University of Michigan)
  143.         Derrick J. Brashear (Carnegie Mellon University)
  144.         Hans-Werner Paulsen (MPI fuer Astrophysik, Garching)
  145.  
  146.    Thanks also to indirect contributors:
  147.  
  148.         Ken Paquette (IBM)
  149.         Lance Pickup (IBM)
  150.         Lisa Chavez (IBM)
  151.  
  152. Subject: 0.03  Disclaimer
  153.  
  154.    I make no representation about the suitability of this
  155.    information for any purpose.
  156.  
  157.    While every effort is made to keep the information in
  158.    this document accurate and current it is provided "as is"
  159.    with no warranty expressed or implied.
  160.  
  161. Subject: 0.04  Release Notes
  162.  
  163.    This faq compilation contains material used with permission of
  164.    Transarc Corporation. Permission to copy is given provided any
  165.    copyright notices and acknowledgements are retained.
  166.  
  167.    Column 1 is used to indicate changes from the last issue:
  168.  
  169.       N = new item
  170.       U = updated item
  171.  
  172. Subject: 0.05  Quote
  173.  
  174.    "'Tis true; there's magic in the web of it;"         Othello, Act 3 Scene 4
  175.                                               --William Shakespeare (1564-1616)
  176. ______________________________________________________________________________
  177. Subject: 1  General
  178.  
  179. Subject: 1.01  What is AFS?
  180.  
  181.    AFS is a distributed filesystem that enables co-operating hosts
  182.    (clients and servers) to efficiently share filesystem resources
  183.    across both local area and wide area networks.
  184.  
  185.    AFS is marketed, maintained, and extended by Transarc Corporation.
  186.  
  187.    AFS is based on a distributed file system originally developed
  188.    at the Information Technology Center at Carnegie-Mellon University
  189.    that was called the "Andrew File System".
  190.  
  191.    "Andrew" was the name of the research project at CMU - honouring the
  192.    founders of the University.  Once Transarc was formed and AFS became a
  193.    product, the "Andrew" was dropped to indicate that AFS had gone beyond
  194.    the Andrew research project and had become a supported, product quality
  195.    filesystem. However, there were a number of existing cells that rooted
  196.    their filesystem as /afs. At the time, changing the root of the filesystem
  197.    was a non-trivial undertaking. So, to save the early AFS sites from having
  198.    to rename their filesystem, AFS remained as the name and filesystem root.
  199.  
  200. Subject: 1.02  Who supplies AFS?
  201.  
  202.         Transarc Corporation          phone: +1 (412) 338-4400
  203.         The Gulf Tower
  204.         707 Grant Street              fax:   +1 (412) 338-4404
  205.         Pittsburgh
  206.         PA 15219                      email: information@transarc.com
  207.         United States of America             afs-sales@transarc.com
  208.  
  209. Subject: 1.03  What is /afs?
  210.  
  211.    The root of the AFS filetree is /afs. If you execute "ls /afs" you will
  212.    see directories that correspond to AFS cells (see below). These cells
  213.    may be local (on same LAN) or remote (eg halfway around the world).
  214.  
  215.    With AFS you can access all the filesystem space under /afs with commands
  216.    you already use (eg: cd, cp, rm, and so on) provided you have been granted
  217.    permission (see AFS ACL below).
  218.  
  219. Subject: 1.04  What is an AFS cell?
  220.  
  221.    An AFS cell is a collection of servers grouped together administratively
  222.    and presenting a single, cohesive filesystem.  Typically, an AFS cell is
  223.    a set of hosts that use the same Internet domain name. 
  224.  
  225.    Normally, a variation of the domain name is used as the AFS cell name.
  226.  
  227.    Users log into AFS client workstations which request information and files
  228.    from the cell's servers on behalf of the users.
  229.  
  230. Subject: 1.05  What are the benefits of using AFS?
  231.  
  232.    The main strengths of AFS are its:
  233.  
  234.       + caching facility
  235.       + security features
  236.       + simplicity of addressing
  237.       + scalability
  238.       + communications protocol
  239.  
  240.    Here are some of the advantages of using AFS in more detail:
  241.  
  242. Subject: 1.05.a  Cache Manager
  243.  
  244.    AFS client machines run a Cache Manager process. The Cache Manager
  245.    maintains information about the identities of the users logged into
  246.    the machine, finds and requests data on their behalf, and keeps chunks
  247.    of retrieved files on local disk.
  248.  
  249.    The effect of this is that as soon as a remote file is accessed
  250.    a chunk of that file gets copied to local disk and so subsequent
  251.    accesses (warm reads) are almost as fast as to local disk and
  252.    considerably faster than a cold read (across the network).
  253.  
  254.    Local caching also significantly reduces the amount of network traffic,
  255.    improving performance when a cold read is necessary.
  256.  
  257. Subject: 1.05.b  Location independence
  258.  
  259.    Unlike NFS, which makes use of /etc/filesystems (on a client) to map
  260.    (mount) between a local directory name and a remote filesystem, AFS
  261.    does its mapping (filename to location) at the server. This has the
  262.    tremendous advantage of making the served filespace location independent.
  263.  
  264.    Location independence means that a user does not need to know which
  265.    fileserver holds the file, the user only needs to know the pathname
  266.    of a file. Of course, the user does need to know the name of the
  267.    AFS cell to which the file belongs. Use of the AFS cellname as the
  268.    second part of the pathname (eg: /afs/$AFSCELL/somefile) is helpful
  269.    to distinguish between file namespaces of the local and non-local
  270.    AFS cells.
  271.  
  272.    To understand why such location independence is useful, consider
  273.    having 20 clients and two servers. Let's say you had to move
  274.    a filesystem "/home" from server a to server b.
  275.  
  276.    Using NFS, you would have to change the /etc/filesystems file on 20
  277.    clients and take "/home" off-line while you moved it between servers.
  278.  
  279.    With AFS, you simply move the AFS volume(s) which constitute "/home"
  280.    between the servers. You do this "on-line" while users are actively
  281.    using files in "/home" with no disruption to their work.
  282.  
  283.    (Actually, the AFS equivalent of "/home" would be /afs/$AFSCELL/home
  284.    where $AFSCELL is the AFS cellname.)
  285.  
  286. Subject: 1.05.c  Scalability
  287.  
  288.    With location independence comes scalability. An architectural goal
  289.    of the AFS designers was client/server ratios of 200:1 which has
  290.    been successfully exceeded at some sites.
  291.  
  292.    Transarc do not recommend customers use the 200:1 ratio. A more
  293.    cautious value of 50:1 is expected to be practical in most cases.
  294.    It is certainly possible to work with a ratio somewhere between
  295.    these two values. Exactly what value depends on many factors including:
  296.    number of AFS files, size of AFS files, rate at which changes are made,
  297.    rate at which file are being accessed, speed of servers processor,
  298.    I/O rates, and network bandwidth.
  299.  
  300.    AFS cells can range from the small (1 server/client) to the massive
  301.    (with tens of servers and thousands of clients).
  302.  
  303.    Cells can be dynamic: it is simple to add new fileservers or clients
  304.    and grow the computing resources to meet new user requirements.
  305.  
  306. Subject: 1.05.d  Improved security
  307.  
  308.    Firstly, AFS makes use of Kerberos to authenticate users.
  309.    This improves security for several reasons:
  310.  
  311.      + passwords do not pass across the network in plaintext
  312.  
  313.      + encrypted passwords no longer need to be visible
  314.  
  315.           You don't have to use NIS, aka yellow pages, to distribute
  316.           /etc/passwd - thus "ypcat passwd" can be eliminated.
  317.  
  318.           If you do choose to use NIS, you can replace the password
  319.           field with "X" so the encrypted password is not visible.
  320.           (These issues are discussed in detail in [25]).
  321.  
  322.      + AFS uses mutual authentication - both the service provider
  323.        and service requester prove their identities
  324.  
  325.    Secondly, AFS uses access control lists (ACLs) to enable users to
  326.    restrict access to their own directories.
  327.  
  328. Subject: 1.05.e  Single systems image (SSI)
  329.  
  330.    Establishing the same view of filestore from each client and server
  331.    in a network of systems (that comprise an AFS cell) is an order of
  332.    magnitude simpler with AFS than it is with, say, NFS.
  333.  
  334.    This is useful to do because it enables users to move from workstation
  335.    to workstation and still have the same view of filestore. It also
  336.    simplifies part of the systems management workload.
  337.  
  338.    In addition, because AFS works well over wide area networks the SSI
  339.    is also accessible remotely.
  340.  
  341.    As an example, consider a company with two widespread divisions
  342.    (and two AFS cells): ny.acme.com and sf.acme.com. Mr Fudd, based
  343.    in the New York office, is visiting the San Francisco office.
  344.  
  345.    Mr. Fudd can then use any AFS client workstation in the San Francisco
  346.    office that he can log into (a unprivileged guest account would suffice).
  347.    He could authenticate himself to the ny.acme.com cell and securely access
  348.    his New York filespace.
  349.  
  350.    For example:
  351.  
  352.        The following shows a guest in the sf.acme.com AFS cell:
  353.        {1} obtaining a PAG with pagsh command (see 2.06)
  354.        {2} use the klog command to authenticate into the ny.acme.com AFS cell
  355.        {3} making a HOME away from home
  356.        {4} invoking a homely .profile
  357.  
  358.        guest@toontown.sf.acme.com $ /usr/afsws/etc/pagsh            # {1}
  359.        $ /usr/afsws/bin/klog -cell ny.acme.com -principal elmer     # {2}
  360.        Password:
  361.        $ HOME=/afs/ny.acme.com/user/elmer; export HOME              # {3}
  362.        $ cd
  363.        $ .  .profile                                                # {4}
  364.        you have new mail
  365.        guest@toontown $
  366.  
  367.    It is not necessary for the San Francisco sys admin to give Mr. Fudd
  368.    an AFS account in the sf.acme.com cell.  Mr. Fudd only needs to be
  369.    able to log into an AFS client that is:
  370.       1) on the same network as his cell and
  371.       2) his ny.acme.com cell is mounted in the sf.acme.com cell
  372.          (as would certainly be the case in a company with two cells).
  373.  
  374. Subject: 1.05.f  Replicated AFS volumes
  375.  
  376.    AFS files are stored in structures called Volumes.  These volumes
  377.    reside on the disks of the AFS file server machines.  Volumes containing
  378.    frequently accessed data can be read-only replicated on several servers.
  379.  
  380.    Cache managers (on users client workstations) will make use of replicate
  381.    volumes to load balance.  If accessing data from one replicate copy, and
  382.    that copy becomes unavailable due to server or network problems, AFS will
  383.    automatically start accessing the same data from a different replicate copy.
  384.  
  385.    An AFS client workstation will access the closest volume copy.
  386.    By placing replicate volumes on servers closer to clients (eg on same
  387.    physical LAN) access to those resources is improved and network traffic
  388.    reduced.
  389.  
  390. Subject: 1.05.g  Improved robustness to server crash
  391.  
  392.    The Cache Manager maintains local copies of remotely accessed files.
  393.  
  394.    This is accomplished in the cache by breaking files into chunks
  395.    of up to 64k (default chunk size). So, for a large file, there may be
  396.    several chunks in the cache but a small file will occupy a single chunk
  397.    (which will be only as big as is needed).
  398.  
  399.    A "working set" of files that have been accessed on the client is
  400.    established locally in the client's cache (copied from fileserver(s)).
  401.  
  402.    If a fileserver crashes, the client's locally cached file copies are usable.
  403.  
  404.    Also, if the AFS configuration has included replicated read-only volumes 
  405.    then alternate fileservers can satisfy requests for files from those
  406.    volumes.
  407.  
  408. Subject: 1.05.h  "Easy to use" networking
  409.  
  410.    Accessing remote file resources via the network becomes much simpler
  411.    when using AFS. Users have much less to worry about: want to move
  412.    a file from a remote site? Just copy it to a different part of /afs.
  413.  
  414.    Once you have wide-area AFS in place, you don't have to keep local
  415.    copies of files. Let AFS fetch and cache those files when you need them.
  416.  
  417. Subject: 1.05.i  Communications protocol
  418.  
  419.    AFS communications protocol is optimized for Wide Area Networks.
  420.    Retransmitting only the single bad packet in a batch of packets
  421.    and allowing the number of unacknowledged packets to be higher
  422.    (than in other protocols, see [4]).
  423.  
  424. Subject: 1.05.j  Improved system management capability
  425.  
  426.    Systems administrators are able to make configuration changes
  427.    from any client in the AFS cell (it is not necessary to login
  428.    to a fileserver).
  429.  
  430.    With AFS it is simple to effect changes without having to take
  431.    systems off-line.
  432.  
  433.    Example:
  434.  
  435.    A department (with its own AFS cell) was relocated to another office.
  436.    The cell had several fileservers and many clients.
  437.    How could they move their systems without causing disruption? 
  438.  
  439.    First, the network infrastructure was established to the new location.
  440.    The AFS volumes on one fileserver were migrated to the other fileservers.
  441.    The "freed up" fileserver was moved to the new office and connected
  442.    to the network.
  443.  
  444.    A second fileserver was "freed up" by moving its AFS volumes across
  445.    the network to the first fileserver at the new office. The second
  446.    fileserver was then moved.
  447.    
  448.    This process was repeated until all the fileservers were moved.
  449.  
  450.    All this happened with users on client workstations continuing
  451.    to use the cell's filespace. Unless a user saw a fileserver
  452.    being physically moved (s)he would have no way to tell the change
  453.    had taken place.
  454.  
  455.    Finally, the AFS clients were moved - this was noticed!
  456.  
  457. Subject: 1.06  Which systems is AFS available for?
  458.  
  459.    AFS runs on systems from: HP, Next, DEC, IBM and SUN.
  460.  
  461.    Transarc customers have done ports to Crays, and the 3090, but all
  462.    are based on some flavour of unix.  Some customers have done work to
  463.    make AFS data available to PCs and Macs, although they are using
  464.    something similar to the AFS/NFS translator (a system that enables
  465.    "NFS only" clients to NFS mount the AFS filetree /afs).
  466.  
  467.    The following list (current at time of writing) is for AFS version 3.3
  468.    (check with Transarc for the most up-to-date list).
  469.  
  470.    This information can also be found on grand.central.org:
  471.  
  472.       via AFS: /afs/grand.central.org/pub/afsps/doc/SUPPORTED_SYSTEMS.afs.*
  473.       via FTP: grand.central.org:/pub/afsps/doc/SUPPORTED_SYSTEMS.afs.*
  474.  
  475.    System-name     CPU and Operating System
  476.  
  477.    hp300_ux90      Hewlett Packard 9000 Series 300/400 running HP-UX 9.0
  478.    hp700_ux90      Hewlett Packard 9000 Series 700 running HP-UX 9.0
  479.    hp800_ux90      Hewlett Packard 9000 Series 800 running HP-UX 9.0
  480.    next_mach20     NeXT (68030 or 68040 systems) running NeXT OS Rel 2.0,2.1
  481.    next_mach30     NeXT (68030 or 68040 systems) running NeXT OS Rel 3.0
  482.    pmax_ul43       DECstation 2100, 3100 or 5000 (single processor) 
  483.                    running Ultrix 4.3
  484.    rs_aix32        IBM RS/6000 running AIX 3.2, 3.2.1 and 3.2.2
  485.    rt_aix221       IBM RT/PC running AIX 2.2.1
  486.    rt_aos4         IBM-RT/PC running AOS Release 4
  487.    sgi_51          Silicon Graphics running IRIX 5.1
  488.    sun3_411        Sun 3 (68020 systems) running Sun OS 4.1.1
  489.    sun3x_411       Sun 3 (68030 systems) running Sun OS 4.1.1
  490.    sun4_411        Sun 4 (EXCEPT SparcStations) running Sun OS 4.1.1, 4.1.2 or 
  491.                    4.1.3
  492.    sun4_52         Sun 4 (EXCEPT SparcStations) running Solaris 2.2
  493.    sun4c_411       Sun SparcStations running Sun OS 4.1.1, 4.1.2 or 4.1.3
  494.    sun4c_52        Sun SparcStations running Solaris 2.2
  495.    sun4m_412       Sun SparcServer 600MP running Sun OS 4.1.2/Solaris 1.0, 
  496.                    4.1.3/Solaris 2.1
  497.    sun4m_52        Sun SparcServer 600MP running Solaris 2.2
  498.    vax_ul43        VAX systems running Ultrix 4.3 (single processor).
  499.  
  500.    There are also ports of AFS done by customers available from Transarc
  501.    on an "as is" unsupported basis.
  502.  
  503.    More information on this can be found on grand.central.org:
  504.  
  505.       via AFS: /afs/grand.central.org/pub/afs-contrib/bin/README
  506.       via FTP: grand.central.org:/pub/afs-contrib/bin/README
  507.  
  508.    These ports of AFS client code include:
  509.  
  510.       HP (Apollo) Domain OS - by Jim Rees at the University of Michigan.
  511.       sun386i - by Derek Atkins and Chris Provenzano at MIT.
  512.  
  513. Subject: 1.07  What does "ls /afs" display in the Internet AFS filetree?
  514.  
  515.    Essentially this displays the AFS cells that co-operate in the
  516.    Internet AFS filetree.
  517.  
  518.    Note that the output of this will depend on the cell you do it from;
  519.    a given cell may not have all the publicly advertised cells available,
  520.    and it may have some cells that aren't advertised outside of the given site.
  521.  
  522.    The definitive source for this information is:
  523.  
  524.            /afs/transarc.com/service/etc/CellServDB.export
  525.  
  526.    I've included the list of cell names included in it below:
  527.    uni-freiburg.de         #Albert-Ludwigs-Universitat Freiburg
  528.    anl.gov                 #Argonne National Laboratory
  529.    bcc.ac.uk               #Bloomsbury Computing Consortium
  530.    bstars.com              #Boeing Aerospace and Electronics/STARS
  531.    bu.edu                  #Boston University
  532.    cs.brown.edu            #Brown University Department of Computer Science
  533.    ciesin.org              #CIESIN
  534.    cards.com               #Cards - Electronic Warfare Associates
  535.    cmu.edu                 #Carnegie Mellon University
  536.    andrew.cmu.edu          #Carnegie Mellon University - Campus
  537.    ce.cmu.edu              #Carnegie Mellon University - Civil Eng. Dept.
  538.    club.cc.cmu.edu         #Carnegie Mellon University Computer Club
  539.    cs.cmu.edu              #Carnegie Mellon University - School of Comp. Sci.
  540.    ece.cmu.edu             #Carnegie Mellon University - Elec. Comp. Eng. Dept.
  541.    me.cmu.edu              #Carnegie Mellon University - Mechanical Engineering
  542.    others.chalmers.se      #Chalmers University of Technology - General users
  543.    cs.cornell.edu          #Cornell University Computer Science Department
  544.    graphics.cornell.edu    #Cornell University Program of Computer Graphics
  545.    theory.cornell.edu      #Cornell University Theory Center
  546.    msc.cornell.edu         #Cornell University Materials Science Center
  547.    pegasus.cranfield.ac.uk #Cranfield Insitute of Technology
  548.    grand.central.org       #DARPA Central File Server at Transarc
  549.    hrzone.th-darmstadt.de  #TH-Darmstadt
  550.    kiewit.dartmouth.edu    #Dartmouth College, Kiewit
  551.    northstar.dartmouth.edu #Dartmouth College, Project Northstar
  552.    es.net                  #Energy Sciences Net
  553.    cern.ch                 #European Laboratory for Particle Physics, Geneva
  554.    fnal.gov                #Fermi National Acclerator Laboratory
  555.    jrc.flinders.edu.au     #Flinders School of Info. Sci. and Tech. - Australia
  556.    hepafs1.hep.net         #FNAL HEPNET cell 1
  557.    pub.nsa.hp.com          #HP Cupertino
  558.    palo_alto.hpl.hp.com    #HP Palo Alto
  559.    ctp.se.ibm.com          #IBM/4C, Chalmers, Sweden
  560.    ibm.uk                  #IBM UK, AIX Systems Support Centre
  561.    inel.gov                #Idaho National Engineering Lab
  562.    iastate.edu             #Iowa State University
  563.    ipp-garching.mpg.de     #Institut fuer Plasmaphysik
  564.    sfc.keio.ac.jp          #Keio University, Japan
  565.    cc.keio.ac.jp           #Keio University, Fac. of Sci. & Tech. Computing Ctr
  566.    lrz-muenchen.de         #Leibniz-Rechenzentrum Muenchen Germany
  567.    athena.mit.edu          #MIT/Athena cell
  568.    rel-eng.athena.mit.edu  #MIT/Athena Release Engineering (primary sources)
  569.    net.mit.edu             #MIT/Network Group cell
  570.    sipb.mit.edu            #MIT/SIPB cell
  571.    media-lab.mit.edu       #MIT/Media Lab cell
  572.    mtxinu.com              #mt Xinu Incorporated
  573.    nada.kth.se             #Royal Institute of Technology, NADA
  574.    nce_ctc                 #National Computational Env. - Cornell Theory Center
  575.    nce                     #National Computing Environment  - wide area cell
  576.    nce_psc                 #National Computing Environment (Metacenter)
  577.    nersc.gov               #National Energy Research Supercomputer Center
  578.    alw.nih.gov             #National Institutes of Health
  579.    test.alw.nih.gov        #National Institutes of Health (test cell)
  580.    cmf.nrl.navy.mil        #Naval Research Lab
  581.    ncat.edu                #North Carolina Agricultural and Technical State U.
  582.    nsf-centers.edu         #NSF Supercomputing Centers
  583.    ctd.ornl.gov            #Computing and Telecommunications Div ORNL
  584.    ri.osf.org              #OSF Research Institute
  585.    gr.osf.org              #OSF Research Institute, Grenoble
  586.    vfl.paramax.com         #Paramax (Unisys) Paoli Research Center
  587.    stars.reston.unisys.com #Paramax (Unisys) - Reston, Va.
  588.    psc.edu                 #PSC (Pittsburgh Supercomputing Center)
  589.    rwcp.or.jp              #Real World Computer Partnership(rwcp)
  590.    rhrk.uni-kl.de          #Rechenzentrum University of Kaiserslautern
  591.    rus.uni-stuttgart.de    #Rechenzentrum University of Stuttgart
  592.    ihf.uni-stuttgart.de    #University of Stuttgart, Ins. fuer Hochfrequenz-Tec
  593.    rpi.edu                 #Rensselaer Polytechnic Institute
  594.    rose-hulman.edu         #Rose-Hulman Institute of Technology
  595.    dsg.stanford.edu        #Stanford Univ. - Comp. Sci. - Distributed Systems
  596.    ir.stanford.edu         #Stanford University
  597.    slac.stanford.edu       #Stanford Linear Accelerator Center
  598.    stars.com               #STARS Technology Center - Ballston, Va.
  599.    ssc.gov                 #Superconducting Supercollider Lab
  600.    ethz.ch                 #Swiss Federal Inst. of Tech. - Zurich, Switzerland
  601.    telos.com               #Telos Systems Group - Chantilly, Va.
  602.    titech.ac.jp            #Tokyo Institute of Technology
  603.    transarc.com            #Transarc Corporation
  604.    cs.arizona.edu          #University of Arizona - Computer Science Dept.
  605.    ece.ucdavis.edu         #Univ California - Davis campus
  606.    spc.uchicago.edu        #University of Chicago - Social Sciences
  607.    rrz.uni-koeln.de        #University of Cologne -  Reg Comp Center
  608.    urz.uni-heidelberg.de   #Universitaet Heidelberg
  609.    uni-hohenheim.de        #University of Hohenheim
  610.    ncsa.uiuc.edu           #University of Illinois
  611.    wam.umd.edu             #University of Maryland Network WAM Project
  612.    umich.edu               #University of Michigan - Campus
  613.    sph.umich.edu           #University of Michigan -- School of Public
  614.    citi.umich.edu          #University of Michigan - IFS Development
  615.    dmsv.med.umich.edu      #University of Michigan - DMSV
  616.    lsa.umich.edu           #University of Michigan - LSA College
  617.    math.lsa.umich.edu      #University of Michigan - Math Cell
  618.    cs.unc.edu              #University of North Carolina at Chapel Hill
  619.    nd.edu                  #University of Notre Dame
  620.    pitt.edu                #University of Pittsburgh
  621.    rus-cip.uni-stuttgart.de #RUS Cip-Pool,Rechenzentrum University of Stuttgart
  622.    mathematik.uni-stuttgart.de #University of Stuttgart, Math Dept.
  623.    isi.edu                 #University of Southern California/ISI
  624.    cs.utah.edu             #University of Utah Computer Science Dept
  625.    cs.washington.edu       #University of Washington Comp Sci Department
  626.    cs.wisc.edu             #University of Wisconsin-Madison, Computer S
  627.    ucop.edu                #University of California Office of the President
  628.  
  629.    This shows different and widespread organizations making use
  630.    of the Internet AFS filetree.
  631.  
  632.    Note that it is also possible to use AFS "behind the firewall"
  633.    within the confines of your organization's network - you don't have
  634.    to participate in the Internet AFS filetree.
  635.  
  636.    Indeed, there are lots of benefits of using AFS on a local area network
  637.    without using the WAN capabilities.
  638.  
  639. Subject: 1.08  Why does AFS use Kerberos authentication?
  640.  
  641.    It improves security.
  642.  
  643.    Kerberos uses the idea of a trusted third party to prove identification.
  644.    This is a bit like using a letter of introduction or quoting a referee
  645.    who will vouch for you.
  646.  
  647.    When a user authenticates using the klog command (s)he is prompted
  648.    for a password. If the password is accepted the Kerberos
  649.    Authentication Server (KAS) provides the user with an encrypted token
  650.    (containing a "ticket granting ticket").
  651.  
  652.    From that point on, it is the encrypted token that is used to prove
  653.    the user's identity. These tokens have a limited lifetime (typically
  654.    a day) and are useless when expired.
  655.  
  656.    In AFS, it is possible to authenticate into multiple AFS cells.
  657.    A summary of the current set of tokens held can be displayed
  658.    by using the "tokens" command.
  659.  
  660.    For example:
  661.       elmer@toontown $ tokens
  662.  
  663.       Tokens held by the Cache Manager:
  664.  
  665.       User's (AFS ID 9997) tokens for afs@ny.acme.com [Expires Sep 15 06:50]
  666.       User's (AFS ID 5391) tokens for afs@sf.acme.com [Expires Sep 15 06:48]
  667.          --End of list--
  668.  
  669.    Kerberos improves security because a users's password need only be
  670.    entered once (at klog time).
  671.  
  672.    AFS uses Kerberos to do complex mutual authentication which means that
  673.    both the service requester and the service provider have to prove their
  674.    identities before a service is granted.
  675.  
  676.    Transarc's implementation of Kerberos is slightly different from
  677.    MIT Kerberos V4 but AFS can work with either version.
  678.  
  679.    For more detail on this and other Kerberos issues see the faq
  680.    for Kerberos (posted to news.answers and comp.protocols.kerberos) [28].
  681.    (Also, see [15], [16], [26], [27])
  682.  
  683. Subject: 2  Using AFS
  684.  
  685. Subject: 2.01  What are the differences between AFS and a unix filesystem?
  686.  
  687.    Essentially, from a user's point of view, there is little difference
  688.    between AFS and local unix filestore. Nearly all the commands normally
  689.    used to access local files can be used to access files in /afs.
  690.  
  691.    In the following set of sections, I have attempted to "target"
  692.    each section to an appropriate type of user by including to the
  693.    right of each section heading one of: User, Programmer, SysAdmin.
  694.    
  695.    Here is a summary of the differences:
  696.  
  697.    Authentication:                                         [ User ]
  698.  
  699.       Before a user can access protected AFS files (s)he needs to become
  700.       authenticated to AFS using the klog command (Kerberos login) to get
  701.       a Kerberos "ticket granting ticket" (called a token from here on).
  702.  
  703.       Without a token, an unauthenticated user is given the AFS identity
  704.       "system:anyuser" and as such is only able to access files in directories
  705.       that have ACLs granting system:anyuser access.
  706.  
  707.       Many systems have the klog function built into the system login program.
  708.       So a user would not even have to know they gain a token on logging in.
  709.       If you use a system where you have to issue the klog command after
  710.       login then you should run the pagsh command first (see below).
  711.  
  712.       AFS provides access control lists to give more precise control
  713.       to users wishing to protect their files (see AFS ACL below).
  714.  
  715.    File permissions:                                       [ User ]
  716.  
  717.       Unix mode bits for group and other are ignored.
  718.       The mode bits for the file owner don't work the way they used to.
  719.  
  720.       Users should protect their AFS files with (directory) ACLs only.
  721.       Just use mode bits to make a file executable.
  722.  
  723.    Data protection with AFS ACLs:                          [ User ]
  724.  
  725.       Some versions of unix (eg IBM's AIX version 3) allow ACLs on
  726.       local files. In AFS, ACLs protect directories and used with
  727.       AFS protection groups (see below) provide a finer granularity
  728.       of protection than can be achieved with basic unix file permissions.
  729.       (AFS ACLs are described in more detail below.)
  730.  
  731.    Protection groups:                                      [ User ]
  732.  
  733.       Users can create and maintain their own protection groups in AFS -
  734.       as opposed to unix where only sys admins can manage protection groups.
  735.  
  736.    Hard links:                                             [ User ]
  737.  
  738.       In AFS, hard links (eg: ln old new) are only valid within a directory.
  739.       This is because AFS ACLs protect directories (not individual files)
  740.       and allowing hard links that span directories would subvert ACL
  741.       protection.
  742.  
  743.       Symbolic links work in AFS because they reference a pathname and
  744.       not an i-node directly. (Hard links reference an i-node directly.)
  745.  
  746.    Changing file protection by moving a file:              [ User ]
  747.  
  748.       Moving a file to a different directory will change the protection
  749.       of a file if the ACL on the new directory if different to the ACL
  750.       on the original directory.
  751.    
  752.    chown and chgrp:                                        [ User ]
  753.  
  754.       Only members of the AFS group "system:administrators" can use these
  755.       commands on files in /afs.
  756.  
  757.    Save on close:                                          [ Programmer ]
  758.  
  759.       AFS Cache Manager does not send file modifications to a file server
  760.       until the close() or fsync() system call.
  761.  
  762.       write() system calls only update the local cache copy on the client.
  763.  
  764.       Note the difference in semantic of writing a file:
  765.       
  766.       local unix file: writes update the file "immediately"
  767.       AFS file:        local cached copy updated "immediately" but
  768.                        the server copy is only updated when the file
  769.                        is closed or fsync'ed.
  770.  
  771.       It is important to understand that most applications (eg: vi, emacs,
  772.       frame, interleaf, wingz, etc) issue the close() system call when
  773.       the user chooses/issues the "save" command in the application.
  774.  
  775.       Users are not required to exit the application to "save" their
  776.       changes back to the server.
  777.  
  778.    byte-range file locking:                                [ Programmer ]
  779.  
  780.       AFS does not support byte-range locking within a file,
  781.       although lockf() and fcntl() calls will return 0 (success).
  782.       The first time a byte-range lock is attempted, AFS will display:
  783.  
  784.       "afs: byte-range lock/unlock ignored; make sure no one else
  785.        else is running this program."
  786.  
  787.    whole file locking:                                     [ Programmer ]
  788.  
  789.       AFS does support advisory locking an entire file with flock().
  790.       Processes on the same client workstation that attempt to lock
  791.       a file obey the proper locking semantics.
  792.  
  793.       Processes on different AFS clients requesting a lock on the same
  794.       file would get EWOULDBLOCK returned.
  795.  
  796.    character and block special files:                      [ SysAdmin ]
  797.  
  798.       AFS does not support character and block special files.
  799.       The mknod command does not create either character or block
  800.       special files in /afs.
  801.  
  802.    AFS version of fsck:                                    [ SysAdmin ]
  803.  
  804.       On an AFS server, the partitions containing served files are NOT
  805.       unix filesystems and standard fsck *must* not be used - use the AFS
  806.       version instead.
  807.  
  808. Subject: 2.02  What is an AFS protection group?
  809.  
  810.    A named list of users.
  811.  
  812.    Group names are used in AFS ACLs to identify lists of users with
  813.    particular access permissions.
  814.  
  815.    In AFS, users can create and maintain their own protection groups.
  816.    This is different to unix where only the system administrator can
  817.    manage /etc/group.
  818.  
  819.    AFS groups are stored in the protection database on fileserver(s)
  820.    and managed by using the "pts" command.
  821.  
  822.    An AFS group typically has the format:
  823.  
  824.        owner-id:group-name
  825.  
  826.    By default, only the owner of a group can change its members.
  827.  
  828.    It is possible to have both users and IP addresses as members
  829.    of an AFS group. By using an IP address like this you can specify
  830.    all the users from the host with that IP address.
  831.  
  832. Subject: 2.03  What are the AFS defined protection groups?
  833.  
  834.    system:anyuser
  835.  
  836.        Everyone who has access to an AFS client in any cell that is
  837.        on the same network as your cell.
  838.  
  839.    system:authuser
  840.  
  841.        Everyone who has access to an AFS client in any cell that is
  842.        on the same network as your cell *and* has valid tokens for
  843.        your cell (ie has been authenticated in your cell).
  844.  
  845.    system:administrators
  846.  
  847.        Users who have privileges to execute some but not all
  848.        system administrator commands.
  849.  
  850. Subject: 2.04  What is an AFS access control list (ACL)?
  851.  
  852.    There is an ACL for every directory in AFS. The ACL specifies
  853.    protection at the directory level (not file level) by listing
  854.    permissions of users and/or groups to a directory. There is a
  855.    maximum of 20 entries on an ACL.
  856.  
  857.    For example:
  858.  
  859.    An AFS ACL is displayed by using the "fs" command as shown below:
  860.  
  861.       tweety@toontown $ fs listacl .
  862.       Access list for . is
  863.       Normal rights:
  864.         fac:coords rlidwka
  865.         system:anyuser rl
  866.  
  867.    This ACL shows that members of the AFS protection group "fac:coords"
  868.    have full access rights to the current directory and "system:anyuser"
  869.    has only read and lookup rights.
  870.  
  871.    The members of "fac:coords" can be determined by accessing the
  872.    protection group database using the "pts" command as shown below:
  873.  
  874.       tweety@toontown $ pts membership fac:coords
  875.       Members of fac:coords (id: -1577) are:
  876.         sylvester
  877.         roadrunner
  878.         yosemite.sam
  879.  
  880. Subject: 2.05  What are the AFS access rights?
  881.  
  882.    In AFS, there are seven access rights that may be set or not set:
  883.  
  884.    lookup          l       Permission to examine the ACL and traverse the
  885.                            directory (needed with most other access rights).
  886.                            Permission to look up filenames in a directory.
  887.    read            r       View the contents of files in the directory
  888.    insert          i       Add new files or sub-directories
  889.    write           w       Modify file contents, use "chmod"
  890.    delete          d       Remove file(s) in directory
  891.    lock            k       Permission for programs to "flock" files
  892.                            in the directory
  893.    administer      a       Ability to change the ACL
  894.  
  895.    There are short-hand forms:
  896.  
  897.    read            rl      read and lookup
  898.    write           rlidwk  all rights except administer
  899.    all             rlidwka
  900.    none                    removes all rights
  901.  
  902. Subject: 2.06  What is pagsh?
  903.  
  904.    A command to get a new shell with a process authentication group (PAG).
  905.  
  906.    This is normally used if your system does not use the AFS version of login.
  907.    It is used to get a PAG prior to running klog.
  908.  
  909.    The PAG uniquely identifies the user to the Cache Manager.
  910.    Without a PAG the Cache Manager uses the unix UID to identify a user.
  911.  
  912. Subject: 2.07  Why use a PAG?
  913.  
  914.    There are two reasons:
  915.  
  916.    a) Child processes inherit the PAG and the Kerberos token so they are AFS
  917.       authenticated.
  918.  
  919.    b) For security: if you don't have a PAG then the Cache Manager identifies
  920.       you by unix UID. Another user with root access to the client could
  921.       su to you and therefore use your token.
  922.  
  923. Subject: 2.08  How can I tell if I have a PAG?
  924.  
  925.    You can tell if you have a PAG by typing "groups". A PAG is indicated
  926.    by the appearance of two integers in the list of groups.
  927.  
  928.    For example:
  929.       sylvester@toontown $ groups
  930.       33536 32533 staff catz
  931.  
  932. Subject: 2.09  Can I still run cron jobs with AFS?
  933.  
  934.    Yes, but remember that in order to fully access files in AFS you have
  935.    to be AFS authenticated. If your cron job doesn't klog then it only
  936.    gets system:anyuser access.
  937.  
  938.    The klog command has a "-pipe" option which will read a password from
  939.    stdin. IF (yes, that's a big if :-) you are prepared to store your
  940.    password in a local (non-AFS) file then you might use the following:
  941.  
  942.       a) create a script to get your AFS token:
  943.  
  944.          #!/bin/sh -
  945.          #
  946.          # NAME      afsgt
  947.          # PURPOSE   Get AFS token by using password stored in a file.
  948.          #           Only need this to run cron jobs that need
  949.          #           authenticated AFS access
  950.          usage() {
  951.                  echo "Usage: afsgt passwordfile" >&2
  952.          }
  953.          if [ -z "${1}" ]; then
  954.                  echo "afsgt error: need name of password file" >&2
  955.                  usage
  956.                  exit 1
  957.          fi
  958.          /usr/afsws/bin/klog -pipe < ${1}
  959.  
  960.       b) Store your password in a local (non-AFS) file that only you
  961.          have access to (perhaps: /home/$USER/.p).
  962.  
  963.          Make sure that this file is mode 600 and also be sure that
  964.          you trust whoever has root access on this system and whoever
  965.          has access to backup tapes! Also, don't forget to change this
  966.          file if you change your AFS password.
  967.  
  968.       c) In your crontab file, run afsgt before whatever task you run.
  969.  
  970.          0 6 * * * /usr/local/bin/afsgt /home/$USER/.p; $HOME/bin/6AMdaily
  971.  
  972. Subject: 2.10  How much disk space does a 1 byte file occupy in AFS?
  973.  
  974.    One kilobyte.
  975.  
  976.    Other filesystems allocate different file block sizes.
  977.    For example, IBM's AIX version 3 journaled file system (JFS)
  978.    uses 4K blocks (exception: 2K for the 160MB disk drive).
  979.  
  980.    Such blocksize differences lead to variations on the amount of
  981.    disk space required to store files. Copying a directory from AFS
  982.    to AIX JFS would require more space in JFS because of the block
  983.    fragmentation.
  984.  
  985.    Example:
  986.  
  987.    a) Create a one byte file in AFS and use "ls -s" to show how many
  988.       kilobytes it occupies:
  989.  
  990.          ariel@atlantica $ echo z >/afs/dsea/tmp/one.byte.file
  991.          ariel@atlantica $ ls -s /afs/dsea/tmp/one.byte.file
  992.             1 /afs/dsea/tmp/one.byte.file
  993.  
  994.    b) Create same file in local filesystem (AIX JFS):
  995.  
  996.          ariel@atlantica $ echo z >/tmp/one.byte.file
  997.          ariel@atlantica $ ls -s /tmp/one.byte.file
  998.             4 /tmp/one.byte.file
  999.  
  1000. Subject: 2.11  Is it possible to specify a user who is external
  1001.                to the current AFS cell on an ACL?
  1002.  
  1003.    No. You cannot reference a particular user from another AFS cell.
  1004.  
  1005.    You can specify an IP address on the ACL; this means any and all
  1006.    users from the host with that IP address.
  1007.  
  1008.    Another solution to this problem is to give the external user an
  1009.    "authentication-only" account in your AFS cell. This means that
  1010.    (s)he can klog (but has no home directory) in your cell.
  1011.  
  1012.    Cross-realm authentication (where co-operating cells are able to
  1013.    specify remore users as "user@remote.cell" on an ACL) is an *unsupported*
  1014.    feature of AFS 3.3a. That means that Transarc doesn't promise
  1015.    to make it work for you, nor keep it running in future releases.
  1016.  
  1017. Subject: 3  AFS administration
  1018.  
  1019. Subject: 3.01  Is there a version of xdm available with AFS authentication?
  1020.  
  1021.    Yes, grand.central.org:pub/afs-contrib/tools/xdm/*
  1022.  
  1023. Subject: 3.02  Is there a version of xlock available with AFS authentication?
  1024.  
  1025.    Yes, grand.central.org:pub/afs-contrib/tools/xlock/*
  1026.  
  1027. Subject: 3.03  How does AFS compare with NFS?
  1028.  
  1029.                                 AFS                          NFS
  1030.    File Access           Common name space from     Different file names from
  1031.                          all workstations           different workstations
  1032.  
  1033.    File Location         Automatic tracking by      Mountpoints to files set by
  1034.    Tracking              file system processes      administrators and users
  1035.                          and databases
  1036.  
  1037.    Performance           Client caching to reduce   No local disk caching;
  1038.                          network load; callbacks    limited cache consistency
  1039.                          to maintain cache consis-
  1040.                          tency
  1041.  
  1042.    Andrew Benchmark      Average time of 210        Average time of 280
  1043.    (5 phases, 8 clients) seconds/client             seconds/client
  1044.  
  1045.    Scaling capabilities  Maintains performance in   Best in small to mid-size
  1046.                          small and very large       installations
  1047.                          installations
  1048.  
  1049.                          Excellent performance on   Best in local-area
  1050.                          wide-area configuration    configurations
  1051.  
  1052.    Security              Kerberos mutual authen-    Security based on
  1053.                          tication                   unencrypted user ID's
  1054.  
  1055.                          Access control lists on    No access control lists
  1056.                          directories for user and
  1057.                          group access
  1058.  
  1059.    Availability          Replicates read-mostly     No replication
  1060.                          data and AFS system
  1061.                          information
  1062.  
  1063.    Backup Operation      No system downtime with    Standard UNIX backup system
  1064.                          specially developed AFS
  1065.                          Backup System
  1066.  
  1067.    Reconfiguration       By volumes (groups of      Per-file movement
  1068.                          files)
  1069.  
  1070.                          No user impact; files      Users lose access to files
  1071.                          remain accessible during   and filenames change
  1072.                          moves, and file names do   (mountpoints need to be
  1073.                          not change                 reset)
  1074.  
  1075.    System Management     Most tasks performed from  Frequently involves telnet
  1076.                          any workstation            to other workstations
  1077.  
  1078.    Autonomous            Autonomous administrative  File servers and clients
  1079.    Architecture          units called cells, in
  1080.                          addition to file servers
  1081.                          and clients
  1082.  
  1083.                          No trust required between  No security distinctions
  1084.                          cells                      between sites
  1085.  
  1086.    [ source: grand.central.org:pub/afsps/doc/afs-nfs.comparison ]
  1087.  
  1088. Subject: 3.04  Given that AFS data is location independent, how does
  1089.                an AFS client determine which server houses the data
  1090.                its user is attempting to access?
  1091.  
  1092.     The Volume Location Database (VLDB) is stored on AFS Database 
  1093.     Servers and is ideally replicated across 3 or more Database Server
  1094.     machines.  Replication of the Database ensures high availability
  1095.     and load balances the requests for the data.  The VLDB maintains 
  1096.     information regarding the current physical location of all volume 
  1097.     data (files and directories) in the cell, including the IP address
  1098.     of the FileServer, and the name of the disk partition the data is 
  1099.     stored on.
  1100.  
  1101.     A list of a cell's Database Servers is stored on the local disk of
  1102.     each AFS Client machine as: /usr/vice/etc/CellServDB
  1103.  
  1104.     The Database Servers also house the Kerberos Authentication
  1105.     Database (encrypted user and server passwords), the Protection
  1106.     Database (user UID and protection group information) and the 
  1107.     Backup Database (used by System Administrators to backup AFS file 
  1108.     data to tape).
  1109.  
  1110. Subject: 3.05  Which protocols does AFS use?
  1111.  
  1112.    AFS may be thought of as a collection of protocols and software
  1113.    processes, nested one on top of the other. The constant interaction
  1114.    between and within these levels makes AFS a very sophisticated software
  1115.    system.
  1116.  
  1117.    At the lowest level is the UDP protocol, which is part of TCP/IP. UDP
  1118.    is the connection to the actual network wire. The next protocol level is
  1119.    the  remote procedure call (RPC).  In general, RPCs allow the developer
  1120.    to build applications using the client/server model, hiding the
  1121.    underlying networking mechanisms. AFS uses Rx, an RPC protocol developed
  1122.    specifically for AFS during its development phase at Carnegie Mellon
  1123.    University.
  1124.  
  1125.    Above the RPC is a series of server processes and interfaces that all
  1126.    use Rx for communication between machines. Fileserver, volserver,
  1127.    upserver, upclient, and bosserver are server processes that export RPC
  1128.    interfaces to allow their user interface commands to request actions and
  1129.    get information. For example, a bos status <machine name> command will
  1130.    examine the bos server process on the indicated file server machine.
  1131.  
  1132.    Database servers use ubik, a replicated database mechanism which is
  1133.    implemented using RPC. Ubik guarantees that the copies of AFS databases
  1134.    of multiple server machines remain consistent. It provides an
  1135.    application programming interface (API) for database reads and writes,
  1136.    and uses RPCs to keep the database synchronized. The database server
  1137.    processes, vlserver, kaserver, and ptserver, reside above ubik. These
  1138.    processes export an RPC interface which allows  user commands to control
  1139.    their operation.  For instance, the pts command is used to communicate
  1140.    with the ptserver, while the command klog  uses the kaserver's RPC
  1141.    interface.
  1142.  
  1143.    Some application programs are quite complex, and draw on RPC interfaces
  1144.    for communication with an assortment of processes. Scout utilizes the
  1145.    RPC interface to file server processes to display and monitor the status
  1146.    of file servers. The uss command interfaces with  kaserver, ptserver,
  1147.    volserver and vlserver to create new user accounts.
  1148.  
  1149.    The Cache Manager also exports an RPC interface. This interface is used
  1150.    principally by file server machines to break callbacks.  It can also be
  1151.    used to obtain Cache Manager status information.  The program cmdebug
  1152.    shows the status of a Cache Manager using this interface.
  1153.  
  1154.    For additional information, Section 1.5 of the AFS System
  1155.    Administrator's Guide and the April 1990 Cache Update contain more
  1156.    information on ubik. Udebug information and short descriptions of all
  1157.    debugging tools were included in the January 1991 Cache Update. Future
  1158.    issues will discuss other debugging tools in more detail.
  1159.  
  1160.    [ source: grand.central.org:pub/cache.update/apr91 ]
  1161.    [ Copyright  1991 Transarc Corporation ]
  1162.  
  1163. Subject: 3.06  Are setuid programs executable across AFS cell boundaries?
  1164.  
  1165.    By default, the setuid bit is ignored but the program may be run
  1166.    (without setuid privilege).
  1167.  
  1168.    It is possible to configure an AFS client to honour the setuid bit
  1169.    (see: "fs setcell". Use with care!).
  1170.  
  1171.    NB: making a program setuid (or setgid) in AFS does *not* mean
  1172.    that the program will get AFS permissions of a user or group.
  1173.    To become AFS authenticated, you have to klog.  If you are not
  1174.    authenticated, AFS treats you as "system:anyuser".
  1175.  
  1176. Subject: 3.07  How does AFS maintain consistency on read-write files?
  1177.  
  1178.    AFS uses a mechanism called "callback".
  1179.  
  1180.    Callback is a promise from the fileserver that the cache version
  1181.    of a file/directory is up-to-date. It is established by the fileserver
  1182.    with the caching of a file.
  1183.  
  1184.    When a file is modified the fileserver breaks the callback.  When the
  1185.    user accesses the file again the Cache Manager fetches a new copy 
  1186.    if the callback has been broken.
  1187.  
  1188.    The following paragraphs describe AFS callback mechanism in more detail:
  1189.  
  1190.    If I open() fileA and start reading, and you then open() fileA,
  1191.    write() a change ***and close() or fsync()*** the file to get your
  1192.    changes back to the server - at the time the server accepts and writes
  1193.    your changes to the appropriate location on the server disk, the
  1194.    server also breaks callbacks to all clients to which it issued a copy
  1195.    of fileA.
  1196.  
  1197.    So my client receives a message to break the callback on fileA, which
  1198.    it dutifully does.  But my application (editor, spreadsheet, whatever
  1199.    I'm using to read fileA) is still running, and doesn't really care
  1200.    that the callback has been broken.
  1201.  
  1202.    When something causes the application to read() more of the file
  1203.    the read() system call executes AFS cache manager code via the VFS switch,
  1204.    which does check the callback and therefore gets new copies of the data.
  1205.  
  1206.    Of course, the application may not re-read data that it has already read,
  1207.    but that would also be the case if you were both using the same host.
  1208.    So, for both AFS and local files, I may not see your changes.
  1209.  
  1210.    Now if I exit the application and start it again, or if the
  1211.    application does another open() on the file, then I will see the
  1212.    changes you've made.  
  1213.  
  1214.    This information tends to cause tremendous heartache and discontent
  1215.    - but unnecessarily so.  People imagine rampant synchronization problems. 
  1216.    In practice this rarely happens and in those rare instances, the data in
  1217.    question is typically not critical enough to cause real problems or 
  1218.    crashing and burning of applications.  Over the past 8 years we've found
  1219.    that the synchronization algorithm has been more than adequate in practice
  1220.    - but people still like to worry!
  1221.  
  1222.    The source of worry is that, if I make changes to a file from my
  1223.    workstation, your workstation is not guaranteed to be notified until I
  1224.    close or fsync the file, at which point AFS guarantees that your
  1225.    workstation will be notified.  This is a significant departure from NFS,
  1226.    in which no guarantees are provided.
  1227.  
  1228.    Partially because of the worry factor and largely because of Posix,
  1229.    this will change in DFS.  DFS synchronization semantics are identical
  1230.    to local file system synchronization.
  1231.  
  1232.    [ DFS is the Distributed File System which is part of the Distributed ]
  1233.    [ Computing Environment (DCE).                                        ]
  1234.  
  1235. Subject: 3.08  How can I run daemons with tokens that do not expire?
  1236.  
  1237.    It is not a good idea to run with tokens that do not expire because
  1238.    this would weaken one of the security features of Kerberos.
  1239.  
  1240.    A better approach is to re-authenticate just before the token expires.
  1241.  
  1242.    There are two examples of this that have been contributed to
  1243.    grand.central.org. The first is "reauth":
  1244.  
  1245.    via AFS: /afs/grand.central.org/pub/afs-contrib/tools/reauth*
  1246.    via FTP: grand.central.org:/pub/afs-contrib/tools/reauth*
  1247.  
  1248.    The second is "lat":
  1249.  
  1250.    via AFS: /afs/grand.central.org/pub/afs-contrib/pointers\
  1251.                                 /UMich-lat-authenticated-batch-jobs
  1252.    via FTP: grand.central.org:/pub/afs-contrib/pointers\
  1253.                                 /UMich-lat-authenticated-batch-jobs
  1254.  
  1255. Subject: 3.09  Can I check my user's passwords for security purposes?
  1256.  
  1257.    Yes. Alec Muffett's Crack tool (at version 4.1f) has been converted
  1258.    to work on the Transarc kaserver database. This modified Crack
  1259.    (AFS Crack) is available via anonymous ftp from:
  1260.  
  1261.       export.acs.cmu.edu:/pub/crack.tar.Z
  1262.  
  1263.    and is known to work on: pmax_* sun4*_* hp700_* rs_aix* next_*
  1264.  
  1265.    It uses the file /usr/afs/db/kaserver.DB0, which is the database on
  1266.    the kaserver machine that contains the encrypted passwords. As a bonus,
  1267.    AFS Crack is usually two to three orders of magnitude faster than the
  1268.    standard Crack since there is no concept of salting in a Kerberos database.
  1269.  
  1270.    On a normal UNIX /etc/passwd file, each password can have been encrypted
  1271.    around 4096 (2^12) different saltings of the crypt(3) algorithm, so for
  1272.    a large number of users it is easy to see that a potentially large
  1273.    (up to 4095) number of seperate encryptions of each word checked has
  1274.    been avoided.
  1275.  
  1276.    Author & Contact: Dan Lovinger, del+@cmu.edu
  1277.  
  1278.    Note: AFS Crack does not work for MIT Kerberos Databases.
  1279.          The author is willing to give general guidance to someone interested
  1280.          in doing the (probably minimal) amount of work to port it to do MIT
  1281.          Kerberos. The author does not have access to a MIT Kerberos server
  1282.          to do this.
  1283.  
  1284. Subject: 3.10  Is there a way to automatically balance disk usage across
  1285.                fileservers?
  1286.  
  1287.    Yes. There is a tool, balance, which does exactly this.
  1288.    It can be retrieved via anonymous ftp from:
  1289.  
  1290.       export.acs.cmu.edu:/pub/balance.tar.Z
  1291.  
  1292.    Actually, it is possible to write arbitrary balancing algorithms
  1293.    for this tool. The default set of "agents" provided for the current
  1294.    version of balance balance by usage, # of volumes, and activity per week,
  1295.    the latter currently requiring a source patch to the AFS volserver.
  1296.    Balance is highly configurable.
  1297.  
  1298.    Author: Dan Lovinger, del+@cmu.edu
  1299.  
  1300. Subject: 3.11  Can I shutdown an AFS fileserver without affecting users?
  1301.  
  1302.    Yes, this is an example of the flexibility you have in managing AFS.
  1303.  
  1304.    Before attempting to shutdown an AFS fileserver you have to make
  1305.    some arrangements that any services that were being provided are
  1306.    moved to another AFS fileserver:
  1307.  
  1308.    1) Move all AFS volumes to another fileserver. (Check you have the space!)
  1309.       This can be done "live" while users are actively using files
  1310.       in those volumes with no detrimental effects.
  1311.  
  1312.    2) Make sure that critical services have been replicated on one
  1313.       (or more) other fileserver(s). Such services include:
  1314.  
  1315.          kaserver  - Kerberos Authentication server
  1316.          vlserver  - Volume Location server
  1317.          ptserver  - Protection server
  1318.          buserver  - Backup server
  1319.  
  1320.       It is simple to test this before the real shutdown by issuing:
  1321.  
  1322.          bos shutdown $server $service
  1323.  
  1324.       where: $server is the name of the server to be shutdown
  1325.         and  $service is one (or all) of: kaserver vlserver ptserver buserver
  1326.  
  1327.    Other points to bear in mind:
  1328.  
  1329.    + "vos remove" any RO volumes on the server to be shutdown.
  1330.      Create corresponding RO volumes on the 2nd fileserver after moving the RW.
  1331.      There are two reasons for this:
  1332.  
  1333.      1) An RO on the same partition ("cheap replica") requires less space
  1334.         than a full-copy RO.
  1335.  
  1336.      2) Because AFS always accesses RO volumes in preference to RW,
  1337.         traffic will be directed to the RO and therefore quiesce the load
  1338.         on the fileserver to be shutdown.
  1339.  
  1340.    + If the system to be shutdown has the lowest IP address there may be a
  1341.      brief delay in authenticating because of timeout experienced before
  1342.      contacting a second kaserver.
  1343.  
  1344. Subject: 3.12  How can I set up mail delivery to users with $HOMEs in AFS?
  1345.  
  1346.    There are many ways to do this. Here, only two methods are considered:
  1347.  
  1348.    Method 1: deliver into local filestore
  1349.  
  1350.    This is the simplest to implement. Set up your mail delivery to
  1351.    append mail to /var/spool/mail/$USER on one mailserver host.
  1352.    The mailserver is an AFS client so users draw their mail out of
  1353.    local filestore into their AFS $HOME (eg: inc).
  1354.  
  1355.    The advantages are:
  1356.  
  1357.       + Simple to implement and maintain.
  1358.       + No need to authenticate into AFS.
  1359.  
  1360.    The drawbacks are:
  1361.  
  1362.       - It doesn't scale very well.
  1363.       - Users have to login to the mailserver to access their new mail.
  1364.       - Probably less secure than having your mailbox in AFS.
  1365.       - System administrator has to manage space in /var/spool/mail.
  1366.  
  1367.    Method 2: deliver into AFS
  1368.  
  1369.    This takes a little more setting up than the first method.
  1370.  
  1371.    First, you must have your mail delivery daemon AFS authenticated
  1372.    (probably as "postman"). The reauth example on grand.central.org
  1373.    shows how a daemon can renew its token. You will also need to setup
  1374.    the daemon startup soon after boot time to klog (see the -pipe option).
  1375.  
  1376.    Second, you need to set up the ACLs so that "postman" has lookup rights
  1377.    down to the user's $HOME and "lik" on $HOME/Mail.
  1378.  
  1379.    Advantages:
  1380.  
  1381.       + Scales better than first method.
  1382.       + Delivers to user's $HOME in AFS giving location independence.
  1383.       + Probably more secure than first method.
  1384.       + User responsible for space used by mail.
  1385.  
  1386.    Disadvantages:
  1387.  
  1388.       - More complicated to set up.
  1389.       - Need to correctly set ACLs down to $HOME/Mail for every user.
  1390.       - Probably need to store postman's password in a file so that
  1391.         the mail delivery daemon can klog after boot time.
  1392.         This may be OK if the daemon runs on a relatively secure host.
  1393.  
  1394. Subject: 3.13  Should I replicate a ReadOnly volume on the same partition
  1395.                and server as the ReadWrite volume?
  1396.  
  1397.    Yes, Absolutely! It improves the robustness of your served volumes.
  1398.  
  1399.    If ReadOnly volumes exist (note use of term *exist* rather than
  1400.    *are available*), Cache Managers will *never* utilize the ReadWrite
  1401.    version of the volume. The only way to access the RW volume is via
  1402.    the "dot" path (or by special mounting).
  1403.  
  1404.    This means if *all* RO copies are on dead servers, are offline, are
  1405.    behind a network partition, etc, then clients will not be able to get
  1406.    the data, even if the RW version of the volume is healthy, on a healthy
  1407.    server and in a healthy network.
  1408.  
  1409.    However, you are *very* strongly encouraged to keep one RO copy of a
  1410.    volume on the *same server and partition* as the RW. There are two
  1411.    reasons for this:
  1412.  
  1413.    1) The RO that is on the same server and partition as the RW is a clone
  1414.       (just a copy of the header - not a full copy of each file).
  1415.       It therefore is very small, but provides access to the same set of files
  1416.       that all other (full copy) ReadOnly volume do.
  1417.       Transarc trainers refer to this as the "cheap replica".
  1418.  
  1419.    2) To prevent the frustration that occurs when all your ROs are unavailable
  1420.       but a perfectly healthy RW was accessible but not used. 
  1421.  
  1422.       If you keep a "cheap replica", then by definition, if the RW is available,
  1423.       one of the RO's is also available, and clients will utilize that site.  
  1424.  
  1425. Subject: 3.14  Should I start AFS before NFS in /etc/inittab?
  1426.  
  1427.    Yes, it is possible to run both AFS and NFS on the same system but
  1428.    you should start AFS first.
  1429.  
  1430.    In IBM's AIX 3.2, your /etc/inittab would contain:
  1431.  
  1432.       rcafs:2:wait:/etc/rc.afs > /dev/console 2>&1 # Start AFS daemons
  1433.       rcnfs:2:wait:/etc/rc.nfs > /dev/console 2>&1 # Start NFS daemons
  1434.  
  1435.    With AIX, you need to load NFS kernel extensions before the AFS KEs
  1436.    in /etc/rc.afs like this:
  1437.  
  1438.       #!/bin/sh -
  1439.       # example /etc/rc.afs for an AFS fileserver running AIX 3.2
  1440.       #
  1441.       echo "Installing NFS kernel extensions (for AFS+NFS)"
  1442.       /etc/gfsinstall -a /usr/lib/drivers/nfs.ext
  1443.       echo "Installing AFS kernel extensions..."
  1444.       D=/usr/afs/bin/dkload
  1445.       ${D}/cfgexport -a ${D}/export.ext
  1446.       ${D}/cfgafs    -a ${D}/afs.ext
  1447.       /usr/afs/bin/bosserver &
  1448.  
  1449. Subject: 3.15  Will AFS run on a multi-homed fileserver?
  1450.  
  1451.    (multi-homed = host has more than one network interface.)
  1452.  
  1453.    Yes, it will. However, AFS was designed for hosts with a single IP address.
  1454.    There can be problems if you have one host name being resolved to several
  1455.    IP addresses.
  1456.  
  1457.    Transarc suggest designating unique hostnames for each network interface.
  1458.    For example, a host called "spot" has two tokenring and one ethernet
  1459.    interfaces: spot-tr0, spot-tr1, spot-en0.
  1460.    Then, select which interface will be used for AFS and use that hostname
  1461.    in the CellServDB file (eg: spot-tr0).
  1462.  
  1463.    You also have to remember to use the AFS interface name with any AFS
  1464.    commands that require a server name (eg: vos listvol spot-tr0).
  1465.  
  1466.    There is a more detailed discussion of this in the August 1993 issue
  1467.    of "Cache Update" (see: /afs/grand.central.org/pub/cache.update/aug93).
  1468.  
  1469. Subject: 4  Getting more information
  1470.  
  1471. Subject: 4.01  Is there an anonymous FTP site with AFS information?
  1472.  
  1473.    Yes, it is: grand.central.org [192.54.226.100].
  1474.  
  1475.    A brief summary of contents:
  1476.  
  1477.    Directory                    Contents
  1478.  
  1479.    pub/cache-update             AFS user group newsletters
  1480.    pub/afs-contrib              Contributed tools and documents
  1481.    pub/afsps/doc                release notes, SUPPORTED_SYSTEMS.afs.*
  1482.    pub/afsug                    AFS user group (see README for detail)
  1483.    darpa/doc/afs/specs/progint  AFS programming interface docs
  1484.  
  1485.    grand.central.org also participates in the Internet AFS filetree.
  1486.  
  1487. Subject: 4.02  Which USENET newsgroups discuss AFS?
  1488.  
  1489.    alt.filesystems.afs and occasionally in comp.unix.admin
  1490.  
  1491. Subject: 4.03  Where can I get training in AFS?
  1492.  
  1493.    Transarc provide user and administrator courses.
  1494.    These can be provided at the customer site or at Transarc's offices.
  1495.  
  1496.    Transarc's education coordinator may be contacted by:
  1497.  
  1498.       telephone: +1 412 338 4363    email: education@transarc.com
  1499.  
  1500. Subject: 5  About the AFS faq
  1501.  
  1502.    This compilation is dedicated to my AFS teacher who inspires by:
  1503.    good humour, enthusiasm, wit, energy, and wisdom.
  1504.  
  1505. Subject: 5.01  How can I get a copy of the AFS faq?
  1506.  
  1507.    There are several ways:
  1508.  
  1509.    The best way to access the AFS faq is via AFS so you see the
  1510.    latest version. If you take a copy via FTP or email your copy
  1511.    can only be a snapshot of this changing file.
  1512.  
  1513.    via AFS: /afs/grand.central.org/pub/afs-contrib/doc/faq/afs.faq
  1514. N           /afs/ibm.uk/public/doc/afs.faq
  1515.             /afs/aixssc.uk.ibm.com/public/doc/afs.faq
  1516.  
  1517.    via FTP: grand.central.org:/pub/afs-contrib/doc/faq/afs.faq
  1518.             ftp.aixssc.uk.ibm.com:/pub/src/afs.faq
  1519.  
  1520. N  via World Wide Web:
  1521. N           http://www.cis.ohio-state.edu/hypertext/faq/usenet/afs-faq/faq.html
  1522.  
  1523.    via email:
  1524.             mail -s afs.faq auto-send@mailserver.aixssc.uk.ibm.com </dev/null
  1525.  
  1526.    via USENET news:
  1527.  
  1528.    From time to time this faq will be posted to the USENET newsgroups:
  1529.             alt.filesystems.afs alt.answers news.answers
  1530.  
  1531.    [If all else fails, send me (mpb@acm.org) an email request.]
  1532.  
  1533. Subject: 5.02  How can I get my question (and answer) into the AFS faq?
  1534.  
  1535.    Comments and contributions are welcome, please send to: mpb@acm.org
  1536.  
  1537.    I am looking for reviewers to help me check the material here, please
  1538.    let me know if you would like to help.
  1539.  
  1540. Subject: 5.03  How can I access the AFS faq via the World Wide Web?
  1541.  
  1542.    To access the World Wide Web you either need your own browser
  1543.    or have telnet access to WWW servers.
  1544.  
  1545.    WWW browsers exist for most machines. Here's a list of some browsers;
  1546.  
  1547.       Name     System/requirements           Available from (among others)
  1548.       ====     ===================           ==============
  1549.       Mosaic   X windows, MS-Windows, Mac    ftp.ncsa.uiuc.edu  /Web
  1550.       lynx     vt100                         ftp.wustl.edu /packages/www/lynx
  1551.  
  1552.    From your own browser, OPEN or GO to the following document:
  1553.  
  1554.       http://www.cis.ohio-state.edu/hypertext/faq/usenet/afs-faq/faq.html
  1555.  
  1556.    It is much better to run your own browser but if this is not possible
  1557.    there are several WWW servers accessible via telnet:
  1558.  
  1559.    +  telnet info.cern.ch
  1560.       then type:
  1561.          go http://www.cis.ohio-state.edu/hypertext/faq/usenet/afs-faq/faq.html
  1562.  
  1563.    +  telnet www.njit.edu                 (login: www)
  1564.       then type:
  1565.          g
  1566.          http://www.cis.ohio-state.edu/hypertext/faq/usenet/afs-faq/faq.html
  1567.  
  1568.    +  telnet  ukanaix.cc.ukans.edu        (login: www) needs vt100
  1569.       then type:
  1570.          ghttp://www.cis.ohio-state.edu/hypertext/faq/usenet/afs-faq/faq.html
  1571.  
  1572. Subject: 6  Bibliography
  1573.  
  1574.    If documentation is available via anonymous FTP it is indicated
  1575.    in square brackets like:
  1576.  
  1577.     [ athena-dist.mit.edu:pub/kerberos/doc/usenix.PS ]
  1578.  
  1579.     where: athena-dist.mit.edu is the anonymous FTP site and
  1580.            pub/kerberos/doc/usenix.PS is the filename
  1581.  
  1582.    Similarly, for those who have appropriate access, documents available
  1583.    via AFS are shown with the format:
  1584.   
  1585.    [ /afs/........ ]
  1586.  
  1587.    [1] John H Howard, Michael L Kazar, Sherri G Menees, David A Nichols,
  1588.        M Satyanarayanan, Robert N Sidebotham, Michael J West
  1589.        "Scale and Performance in a Distributed File System",
  1590.        ACM Transactions on Computer Systems, Vol. 6, No. 1, Feb 1988 pp 51-81.
  1591.  
  1592.    [2] Michael L Kazar,
  1593.        "Synchronisation and Caching Issues in the Andrew File System",
  1594.        USENIX Proceedings, Dallas, TX, Winter 1988
  1595.  
  1596.    [3] Alfred Z Spector, Michael L Kazar,
  1597.        "Uniting File Systems", UNIX Review, March 1989
  1598.  
  1599.    [4] Johna Till Johnson,
  1600.        "Distributed File System brings LAN Technology to WANs",
  1601.        Data Communications, November 1990, pp 66-67.
  1602.  
  1603.    [5] Michael Padovano, PADCOM Associates,
  1604.        "AFS widens your horizons in distributed computing",
  1605.        Systems Integration, March 1991
  1606.  
  1607.    [6] Steve Lammert,
  1608.        "The AFS 3.0 Backup System", LISA IV Conference Proceedings,
  1609.        Colorado Springs, Colorado, October 1990.
  1610.  
  1611.    [7] Michael L Kazar, Bruce W Leverett, Owen T Anderson,
  1612.        Vasilis Apostolides, Beth A Bottos, Sailesh Chutani,
  1613.        Craig F Everhart, W Anthony Mason, Shu-Tsui Tu, Edward R Zayas,
  1614.        "DEcorum File System Architectural Overview",
  1615.        USENIX Conference Proceedings, Anaheim, Texas, Summer 1990.
  1616.  
  1617.    [8] "AFS Drives DCE Selection", Digital Desktop, Vol 1 No 6 Sept 1990.
  1618.  
  1619.    [9] James J Kistler, M Satyanarayanan,
  1620.        "Disconnected Operation in the Coda Filesystem",
  1621.        CMU School of Computer Science technical report, CMU-CS-91-166
  1622.        26th July 1991.
  1623.  
  1624.   [10] Puneet Kumar. M Satyanarayanan,
  1625.        "Log-based Directory Resolution in the Coda File System",
  1626.        CMU School of Computer Science internal document, 2 July 1991.
  1627.  
  1628.   [11] Edward R Zayas,
  1629.        "Administrative Cells: Proposal for Cooperative Andrew File Systems",
  1630.        Information Technology Center internal document,
  1631.        Carnegie-Mellon University, 25th June 1987
  1632.  
  1633.   [12] Ed Zayas, Craig Everhart,
  1634.        "Design and Specification of the Cellular Andrew Environment",
  1635.        Information Technology Center, Carnegie-Mellon University,
  1636.        CMU-ITC-070, 2 August 1988
  1637.  
  1638.   [13] Kazar, Michael L, Information Technology Center,
  1639.        Carnegie-Mellon University,
  1640.        "Ubik - A library for Managing Ubiquitous Data", 
  1641.        ITCID, Pittsburgh, PA, 1988
  1642.  
  1643.   [14] Kazar, Michael L, Information Technology Center,
  1644.        Carnegie-Mellon University,
  1645.        "Quorum Completion", ITCID, Pittsburgh, PA, 1988
  1646.  
  1647.   [15] SP Miller, BC Neuman, JI Schiller, JH Saltzer,
  1648.        "Kerberos Authentication and Authorization System",
  1649.        Project Athena technical Plan, Section E.2.1, MIT, December 1987.
  1650.        [ athena-dist.mit.edu:pub/kerberos/doc/techplan.{PS,txt} ]
  1651.        [ /afs/watson.ibm.com/projects/agora/papers/kerberos/techplan.PS ]
  1652.  
  1653.   [16] Bill Bryant,
  1654.        "Designing an Authentication System: a Dialogue in Four Scenes",
  1655.        Project Athena internal document, MIT, draft of 8th February 1988
  1656.        [ athena-dist.mit.edu:pub/kerberos/doc/dialog.{PS,mss} ]
  1657.        [ /afs/watson.ibm.com/projects/agora/papers/kerberos/dialog.PS ]
  1658.  
  1659.   [17] Edward R Zayas,
  1660.        "AFS-3 Programmer's Reference: Architectural Overview",
  1661.        Transarc Corporation, FS-00-D160, September 1991
  1662.        [ grand.central.org:darpa/doc/afs/specs/progint/archov/archov-doc.ps ]
  1663.        [ /afs/watson.ibm.com/projects/agora/papers/afs/archov-doc.ps ]
  1664.  
  1665.   [18] "AFS Programmer's Reference: Authentication Server Interface",
  1666.        Transarc Corporation, 12th April 1993
  1667.        [ grand.central.org:darpa/doc/afs/specs/progint/arsv/asrv-ispec.ps ]
  1668.        [ /afs/watson.ibm.com/projects/agora/papers/afs/asrv-ispec.ps ]
  1669.  
  1670.   [19] Edward R Zayas,
  1671.        "AFS-3 Programmer's Reference: BOS Server Interface",
  1672.        Transarc Corporation, FS-00-D161, 28th August 1991
  1673.        [ grand.central.org:darpa/doc/afs/specs/progint/bsrv/bsrv-spec.ps ]
  1674.        [ /afs/watson.ibm.com/projects/agora/papers/afs/bsrv-spec.ps ]
  1675.  
  1676.   [20] Edward R Zayas,
  1677.        "AFS-3 Programmer's Reference: File Server/Cache Manager Interface",
  1678.        Transarc Corporation, FS-00-D162, 20th August 1991
  1679.        [ grand.central.org:darpa/doc/afs/specs/progint/fscm/fscm-ispec.ps ]
  1680.        [ /afs/watson.ibm.com/projects/agora/papers/afs/fscm-ispec.ps ]
  1681.  
  1682.   [21] Edward R Zayas,
  1683.        "AFS-3 Programmer's Reference:
  1684.               Specification for the Rx Remote Procedure Call Facility",
  1685.        Transarc Corporation, FS-00-D164, 28th August 1991
  1686.        [ grand.central.org:darpa/doc/afs/specs/progint/rx/rx-spec.ps ]
  1687.        [ /afs/watson.ibm.com/projects/agora/papers/afs/rx-spec.ps ]
  1688.  
  1689.   [22] Edward R Zayas,
  1690.        "AFS-3 Programmer's Reference:
  1691.               Volume Server/Volume Location Server Interface",
  1692.        Transarc Corporation, FS-00-D165, 29th August 1991
  1693.        [ grand.central.org:darpa/doc/afs/specs/progint/vvl/vvl-spec.ps ]
  1694.        [ /afs/watson.ibm.com/projects/agora/papers/afs/vvl-spec.ps ]
  1695.  
  1696.   [23] "AFS User Guide",
  1697.         Transarc Corporation, FS-D200-00.08.3
  1698.  
  1699.   [24] "AFS Commands Reference Manual",
  1700.         Transarc Corporation, FS-D200-00.11.3
  1701.  
  1702.   [25] "AFS Systems Administrators Guide",
  1703.         Transarc Corporation, FS-D200-00.10.3
  1704.  
  1705.   [26] Steven M. Bellovin, Michael Merritt
  1706.        "Limitations of the Kerberos Authentication System",
  1707.        Computer Communications Review, October 1990, Vol 20 #5, pp. 119-132
  1708.        [ research.att.com:/dist/internet_security/kerblimit.usenix.ps ]
  1709.        [ /afs/watson.ibm.com/projects/agora/papers/kerberos/limitations.PS ]
  1710.  
  1711.   [27] Jennifer G. Steiner, Clifford Neuman, Jeffrey I. Schiller
  1712.        "Kerberos: An Authentication Service for Open Network Systems"
  1713.        [ athena-dist.mit.edu:/pub/kerberos/doc/usenix.{txt,PS} ]
  1714.  
  1715.   [28] Barry Jaspan
  1716.        "Kerberos Users' Frequently Asked Questions"
  1717.        [ rtfm.mit.edu:/pub/usenet/news.answers/kerberos-faq/user ]
  1718.  
  1719.   [29] P. Honeyman, L.B. Huston, M.T. Stolarchuk
  1720.        "Hijacking AFS"
  1721.        [ ftp.sage.usenix.org:/pub/usenix/winter92/hijacking-afs.ps.Z ]
  1722.  
  1723.   [30] R.N. Sidebotham
  1724.        "Rx: Extended Remote Procedure Call"
  1725.        Proceedings of the Nationwide File System Workshop
  1726.        Information Technology Center, Carnegie Mellon University,
  1727.        (August 1988)
  1728.         
  1729.   [31] R.N. Sidebotham
  1730.        "Volumes: The Andrew File System Data Structuring Primitive"
  1731.        Technical Report CMU-ITC-053, Information Technology Center,
  1732.        Carnegie Mellon University, (August 1986)
  1733.